| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

我們終於知道AI如何"思考"了——基本沒啥思考

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
華爾街日報專欄作者Christopher Mims評論文章:研究人員正在開發新工具,以便能夠觀察AI模型的內部。研究結果讓許多人開始對這些模型接近通用人工智能的結論產生疑問。


人工智能領域的大佬——OpenAI、Anthropic、谷歌(Google)及其他公司的領導者——仍然自信滿滿地預測,人工智能很快就會變得跟人類一樣聰明。但持反對意見的人越來越多,聲量也越來越大。他們說,人工智能壓根就不會像人類這樣思考。

這些研究人員的工作表明,今天的人工智能模型在底層架構上存在某種根本性限制。今天的人工智能之所以能夠模擬人類的智能,從本質上說是通過學習大量經驗法則來實現的,它們將這些法則有選擇地應用於遇到的所有信息。


而人類乃至動物則能夠以多種方式對世間萬事進行推理並預測未來。我們生物體會建立“世界模型”來理解事物如何運作,包括因果關系。

許多人工智能工程師聲稱,他們的模型也在龐大的人工神經元網絡內建立了這樣的世界模型,證據是這些模型能夠寫出明顯表現出推理能力的流暢文字。所謂“推理模型”的最新進展讓一些觀察人士更加確信,ChatGPT和其他公司已經達到與人類相當的能力水平,這在業內被稱為AGI,也就是通用人工智能。

ChatGPT及其競品自問世以來,大多數時候都像是神秘的黑盒子。

我們不知道它們是如何生成結果的,因為我們對它們進行的是訓練而不是編程,構成這些模型人工“大腦”的大量參數以創造者捉摸不透的方式對信息和邏輯進行編碼。但研究人員正在開發新工具,以便能夠觀察這些模型的內部。研究結果讓許多人開始對這些模型接近通用人工智能的結論產生疑問。




“關於這些模型究竟在做什麼,還有用來描述它們的一些擬人化語言,存在一些爭議。”聖菲研究所(Santa Fe Institute)研究人工智能的教授梅蘭妮·米切爾(Melanie Mitchell)說。




聖菲研究所教授梅蘭妮·米切爾圖片來源:KATE JOYCE/SANTA FE INSTITUTE

“啟發式規則包”

探索大語言模型的新技術——屬於“機械可解釋性”這一不斷發展的領域——能夠向研究人員展現這些人工智能如何進行數學運算、學習玩游戲或在環境中導航。米切爾在最近發表的一系列文章中指出,越來越多的研究表明,可能的情況似乎是,模型會建立巨大的“啟發式規則包”,而不是創建效率更高的場景心智模型,然後通過推理來完成手頭的任務。(用平白的話來說,“啟發式”是指解決問題的捷徑。)

哈佛大學(Harvard University)的人工智能研究者基恩·瓦法(Keyon Vafa)第一次聽說“啟發式規則包”理論時,“我覺得它為我解鎖了一些東西,”他說。“這正是我們試圖描述的東西。”
覺得新聞不錯,請點個贊吧     還沒人說話啊,我想來說幾句
上一頁123下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0367 秒 and 5 DB Queries in 0.0067 秒